花费 16 ms
phoenix与spark整合

目的是将phoenix做存储,spark做计算层。这样就结合了phoenix查询速度快和spark计算速度快的优点。在这里将Phoenix的表作为spark的RDD或者DataFrames来操作,并且 ...

Thu Aug 25 19:07:00 CST 2016 0 4854

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM